هوش مصنوعی و جنگ آینده
هوش مصنوعی و جنگ آینده -هوش مصنوعی (AI) یکی از فناوریهای نظامی است که قدرتهای بزرگ در سالهای اخیر بیشترین توجه را به آن داشتهاند.
ایالات متحده سومین استراتژی آفست خود را در سال 2014 اعلام کرد که به دنبال حفظ مزیت نظامی ایالات متحده از طریق استفاده از فناوری های نظامی پیشرفته مانند هوش مصنوعی و سلاح های بدون سرنشین بود.
استراتژی امنیت ملی ایالات متحده که در 12 اکتبر 2022 منتشر شد، هوش مصنوعی را به عنوان یکی از فناوریهایی که ایالات متحده و متحدانش باید سرمایهگذاری و استفاده از آن را ترویج کنند، ذکر کرد.
در مقابل، در سال 2019، چین یک استراتژی نظامی جدید به نام جنگ هوشمندانه را اعلام کرد که از هوش مصنوعی استفاده می کند.
مقامات ارتش آزادیبخش خلق چین (PLA) اعلام کرده اند که می تواند با استفاده از هوش مصنوعی از ارتش آمریکا پیشی بگیرد.
پوتین رئیس جمهور روسیه در یک سخنرانی تلویزیونی در سپتامبر 2017 گفت که اولین کشوری که هوش مصنوعی واقعی را توسعه دهد بر جهان حکومت خواهد کرد.
بنابراین، کشورهای بزرگ در سال های اخیر علاقه زیادی به استفاده نظامی از هوش مصنوعی نشان داده اند و مسابقه ای برای توسعه آن وجود داشته است.
جنگ روسیه و اوکراین اولین درگیری در تاریخ است که در آن هر دو طرف از هوش مصنوعی استفاده می کنند.
روسیه از هوش مصنوعی برای انجام حملات سایبری و ایجاد ویدئوهای جعلی که رئیس جمهور زلنسکی را نشان می دهد در حال تسلیم شدن استفاده می کند.
در همین حال، اوکراین همچنین از فناوری تشخیص چهره برای شناسایی عوامل و سربازان روسی و همچنین تحلیل اطلاعات و استراتژی های برنامه ریزی استفاده می کند.
با این حال، هوش مصنوعی فناوری نیست که لزوماً بدون محدودیت در ارتش مورد استفاده قرار گیرد. مشهورترین هشدار از سوی فیزیکدان استیون هاوکینگ آمده است: هوش مصنوعی ممکن است پایان نوع بشر را به همراه داشته باشد.
همانطور که نماد فیلم SF Terminator است، آیندهای که در آن هوش مصنوعی مسلح کنترل خود را از دست داده و علیه انسانها شورش میکند، بارها و بارها صحبت شده است.
این مقاله بحث میکند که مزایای استفاده نظامی از هوش مصنوعی چیست، چگونه در جنگهای آینده مورد استفاده قرار میگیرد و چه خطراتی شناسایی شده است.
این مقاله همچنین چهار جنبه بسیار متفاوت از استفاده نظامی از هوش مصنوعی را شناسایی میکند: پردازش اطلاعات سریعتر، تصمیمگیری سریعتر، سلاحهای بدون سرنشین خودمختار و استفاده در جنگهای شناختی.
هنگام بحث در مورد کاربردهای نظامی هوش مصنوعی، برخی از بحث ها تنها بر برخی از این جنبه ها تمرکز می کنند. این مقاله به طور جامع این جنبه ها را مورد بحث قرار می دهد.
چرا F-86 در جنگ کره بهتر از MiG-25 عمل کرد؟
هوش مصنوعی بهبود یا جایگزینی برای مغز انسان است. سلاح هایی که تاکنون در تاریخ بشر توسعه یافته اند، عضلات، چشم ها و گوش های انسان را تقویت کرده اند.
در مقایسه با انسانهای بدوی که با چماقها میجنگند، انسانهای مدرن قدرت کشتن بسیار قویتری دارند، دشمنان خود را هزاران مایل دورتر میبینند و با متحدان خود در هزاران مایل دورتر ارتباط برقرار میکنند.
با این حال، این اولین بار در تاریخ طولانی جنگ انسانی است که مغز تقویت شده است. بنابراین تغییرات ایجاد شده توسط هوش مصنوعی می تواند بی سابقه و متمایز باشد.
حتی قبل از کاربرد عملی هوش مصنوعی، سرعت پردازش اطلاعات و تصمیم گیری مغز انسان مهم ترین عامل در تعیین برنده یا بازنده یک جنگ بود.
این جان بوید از نیروی هوایی ایالات متحده بود که اولین بار این نظریه را ارائه کرد. بوید بر اساس تجربه خود از نبرد هوایی در جنگ کره، معتقد بود که سرعت تصمیم گیری خلبان، به جای عملکرد خود هواپیمای جنگنده، می تواند بین برد و باخت در نبرد تفاوت ایجاد کند.
در سپتامبر 1951، حدود یک سال پس از شروع جنگ کره، نیروی هوایی چین به عنوان ارتش داوطلب مردمی شرکت در جنگ کره را آغاز کرد.
هواپیماهای جنگنده جدید MiG-15 ساخت شوروی که در این زمان توسط نیروی هوایی چین مورد استفاده قرار می گرفت، از نظر عملکرد هواپیما مانند ارتفاع بالا رفتن، عملکرد رانش و چرخش و قدرت ماشین آنها، بسیار برتر از F-86 Saber آمریکایی بود. اسلحه
با این حال، F-86 کمتر توانمند ایالات متحده بود که با نسبت شلیک 3.7 به برنده نبرد شد. کابین خلبان، به خلبان اجازه می دهد در همه جهات ببیند. در مقابل، دید از کابین خلبان میگ 15 بسیار ضعیف بود.
تجربه خدمت بوید در جنگ کره به عنوان یک خلبان جدید، او را به تکمیل نظریه نظامی جدید در دهه های 1960 و 1970 سوق داد. حلقه OODA بوید اولین نظریه ای بود که اهمیت سرعت تصمیم گیری در جنگ را استدلال کرد.
بر اساس تئوری او، نبرد نه بر اساس عملکرد سلاح، بلکه بر اساس سرعت حلقه OODA (مشاهده، جهت گیری، تصمیم گیری و اقدام) برنده یا شکست می خورد.
به عبارت دیگر، F-86 با دید خوب خلبان از سرعت بالایی در تصمیم گیری برخوردار بود که به موجب آن خلبان به سرعت وضعیت را ارزیابی کرده و اقدام می کند. این نظریه از آن زمان در تجارت و سایر زمینه ها استفاده شده است.
زمانی که بوید این نظریه را توسعه داد، هوش مصنوعی هنوز توسعه نیافته بود. با این حال، بوید نشان داد که اگر انسانها بتوانند اطلاعات را پردازش کنند و به سرعت تصمیم بگیرند، میتوانند در نبردها پیروز شوند، حتی با عملکرد ضعیف سلاح.
با این حال، نظریه بوید از یک اقدام نسبتاً ساده ناشی شد: خلبانی یک هواپیمای جنگنده. در جنگهای بعدی، مشخص شد که محدودیتهایی برای ظرفیت پردازش اطلاعات انسان وجود دارد، زمانی که این تئوری در کل عملیات نظامی شامل دهها یا صدها هزار سرباز، سلاح و حسگرهایی که بهصورت ارگانیک عمل میکنند، اعمال میشود.
شکست های جنگ شبکه محور
بسیاری از مردم جنگ خلیج فارس در سال 1991 را به عنوان اولین جنگ فضایی توصیف کرده اند.
ارتش آمریکا از ماهواره های شناسایی، ماهواره های ارتباطی و ماهواره های سامانه موقعیت یاب جهانی (GPS) برای جمع آوری اطلاعات دقیق در مورد ارتش عراق استفاده کرد و اطلاعات جمع آوری شده را از طریق شبکه های ارتباطی به اشتراک گذاشت.
ارتش آمریکا همچنین از سلاح های هدایت شونده دقیق برای انجام حملات دقیق علیه نیروهای عراقی استفاده کرد.
تئوری های جدید در مورد سرعت تصمیم گیری در دهه 1990 زمانی که این روش جنگ ممکن شد، توسعه یافت.
تئوری اصلی جنگ محور شبکه (NCW) بود که توسط آرتور سبروسکی از نیروی دریایی ایالات متحده در سال 1998 ارائه شد.
او استدلال کرد که شبکه سازی سازمان های نظامی با استفاده از فناوری اطلاعات و ارتباطات به سرعت در حال توسعه، تصمیم گیری سریع را ممکن می کند و پیروزی قاطع را می توان انتظار داشت. سرعت بالای تصمیم گیری
تئوری سبرووسکی از مدل کسب و کار خرده فروشی وال مارت که به سرعت در حال رشد بود در دهه 1990 الهام گرفت.
جمع آوری اطلاعات پرداخت وال مارت از صندوق های نقدی، به اشتراک گذاری بلادرنگ اطلاعات پرداخت با تولیدکنندگان و توزیع کنندگان، و در نتیجه کنترل بهینه تولید و تحویل در آن زمان انقلابی بود.
سبروسکی با اعمال این امر در سازمانهای نظامی پیشنهاد کرد که شبکهسازی سازمانهای نظامی تصمیمگیری بهینه و سریع را ممکن میسازد.
در سال 2001، جورج دبلیو بوش بلافاصله پس از روی کار آمدن به تئوری سبرووسکی پی برد. NCW هسته نظری تحول ارتش ایالات متحده در آن زمان بود.
در جریان این سازماندهی مجدد، ایالات متحده وارد جنگ های افغانستان و عراق شد.
با این حال، در این دو جنگ، NCW همیشه موفق نبود. یکی از عوامل اضافه بار اطلاعات و توانایی ناکافی پردازش اطلاعات بود.
در طول جنگها، مراکز فرماندهی ارتش آمریکا مستقر در کویت و قطر مقادیر زیادی اطلاعات را از ماهوارهها، هواپیماهای سرنشین دار و بدون سرنشین، طیف گستردهای از رادارها و حسگرها و بسیاری از واحدهای میدانی جمعآوری کردند.
با این حال، اطلاعات جمع آوری شده در مقر در جنگ، متنوع، پیچیده و حاوی مقدار زیادی تکرار، ابهام و ناهماهنگی است و یک مجموعه داده ساده مانند اطلاعات پرداخت وال مارت نیست.
فناوری پردازش اطلاعات آن زمان قادر به پردازش خودکار چنین داده های پیچیده ای نبود. طبیعتاً فرماندهی ارتش آمریکا نیز قادر به استخراج و پردازش صحیح حجم زیادی از اطلاعات جمع آوری شده نبود.
تئوری NCW سبرووسکی با کناره گیری پرزیدنت بوش به پایان رسید، اما توسعه تئوری هایی برای تسریع در تصمیم گیری از آن زمان ادامه یافت.
بهبود پردازش اطلاعات
وزارت دفاع ایالات متحده (DoD) در حال حاضر در حال توسعه تئوری جنگ موزاییک است. در هسته اصلی آن مفهوم جنگ تصمیم محور (DCW)، است که برتری نسبی سرعت تصمیم گیری را هدف قرار می دهد و هدف آن شبیه به نظریه بوید و سبرووسکی است.
DCW به طور قابل توجهی با مفاهیم قبلی تفاوت دارد زیرا از هوش مصنوعی و سلاح های بدون سرنشین استفاده می کند.
وزارت دفاع همچنین در حال توسعه فرماندهی و کنترل همه دامنه مشترک (JADC2) است که از هوش مصنوعی برای پردازش داده های جمع آوری شده توسط تعداد زیادی سنسور برای پشتیبانی از تصمیم گیری فرمانده استفاده می کند.
سیستم های جمع آوری اطلاعات مورد استفاده در جنگ های مدرن شامل ماهواره ها، هواپیماهای سرنشین دار و بدون سرنشین، رادارها و حسگرهای زمینی و زیردریایی است که تعداد و تنوع آنها در حال افزایش است.
علاوه بر این، داده های منبع باز را می توان از اینترنت و سایر منابع جمع آوری کرد. علاوه بر این، حجم داده های ارسال شده از هر یک از این دستگاه های جمع آوری اطلاعات در حال انفجار است، به عنوان مثال، وضوح تصاویر گرفته شده توسط ماهواره ها به طور چشمگیری بهبود یافته است.
هوش مصنوعی پردازش حجم عظیمی از دادههای حاصل از این سیستمهای جمعآوری اطلاعات را ممکن کرده است.
علاوه بر این، هوش مصنوعی میتواند همبستگی بین بسیاری از مجموعههای داده مختلف را شناسایی کند و امکان تشخیص تغییراتی را فراهم کند که در غیر این صورت توسط انسانها مورد توجه قرار نمیگیرند.
PLA همچنین بر بهبود قابلیت های پردازش اطلاعات خود با استفاده از هوش مصنوعی متمرکز است.
به عنوان مثال، آنها در حال ساخت شبکه ای از سلاح های بدون سرنشین و حسگرهای زیردریایی در آب های اطراف چین هستند و از هوش مصنوعی برای پردازش اطلاعات این شبکه ها استفاده می کنند.
علاوه بر این، آنها در حال بررسی شکل جدیدی از جنگ الکترونیک هستند که از هوش مصنوعی برای تجزیه و تحلیل سیگنال های رادیویی دریافتی و بهینه سازی پارازیت استفاده می کند.
همانطور که در بالا توضیح داده شد، سرعت تصمیم گیری عامل بسیار مهمی در تصمیم گیری برنده یا بازنده یک جنگ است و تئوری های مختلفی در این زمینه ارائه شده است.
با این حال، جنگ عراق و افغانستان کمبود ظرفیت برای پردازش مقادیر زیادی از اطلاعات را نشان داد.
و اکنون که هوش مصنوعی می تواند حجم زیادی از داده ها را پردازش کند، تصمیم گیری سریع در حال تبدیل شدن به واقعیت است.
خطرات جنگ فلش
با توجه به اینکه سرعت تصمیمگیری مهمترین عامل در تصمیمگیری برنده یا بازنده جنگ است، اگر هوش مصنوعی نه تنها اطلاعات را پردازش کند، بلکه خود تصمیمگیری کند، میتوان انتظار داشت که هوش مصنوعی تصمیمهای سریعتری بگیرد که بهطور غیرقابل مقایسه سریعتر از تصمیمات انسانها باشد.
علاوه بر این، هوش مصنوعی عاری از تعصبات، اکتشافات (شهود، پیش فرض ها)، ترس ها و سایر احساسات و خستگی ذاتی مغز انسان است و می توان انتظار داشت که حتی در شرایط سخت جنگ نیز تصمیمات عینی و دقیق بگیرد.
با این حال، یکی از مشکلات واگذاری تصمیم گیری در جنگ به هوش مصنوعی، خطر جنگ فلش است که در آن تصمیمات حیاتی مانند شروع جنگ یا پرتاب موشک های هسته ای در یک لحظه اتخاذ می شود.
در طول تاریخ، رهبران اصلی ملی همواره تصمیمات خودداری را در صورت وجود خطر جنگ هسته ای اتخاذ کرده اند. هری ترومن، رئیس جمهور ایالات متحده، داگلاس مک آرتور، فرمانده سازمان ملل را که از استفاده از سلاح هسته ای در جنگ کره حمایت می کرد، برکنار کرد.
پرزیدنت دوایت آیزنهاور نیروهای آمریکایی را به قیام مجارستان در سال 1956 نفرستاد. رئیس جمهور جان اف کندی مانع از ساختن دیوار برلین توسط نیروهای شوروی نشد.
در این شرایط، اگر هوش مصنوعی محاسبات را به صورت مکانیکی انجام دهد، این خطر وجود دارد که هوش مصنوعی به این نتیجه برسد که یک حمله پیشگیرانه زودهنگام انجام دهد تا طرف مقابل را از اقدام و ایجاد مزیت استراتژیک باز دارد.
تعدادی از مطالعات در ایالات متحده مشکلاتی را در تصمیم گیری های استراتژیک هوش مصنوعی، مانند پرتاب موشک های هسته ای، از دهه 2010 شناسایی کرده اند.
بسیاری از این مطالعات استدلال کرده اند که استفاده از هوش مصنوعی خطر جنگ هسته ای را افزایش می دهد.
این مطالعات همواره به حکایت ستوان شوروی که جهان را نجات داد اشاره می کند: در سال 1983، یک سیستم هشدار خودکار شوروی موشک های هسته ای را که از ایالات متحده پرواز می کردند را شناسایی کرد. طبق دستورالعمل آنها، ارتش شوروی باید قبل از فرود موشک های هسته ای ایالات متحده، موشک های هسته ای خود را برای ضدحمله پرتاب می کرد.
با این حال، یک ستوان نیروی هوایی شوروی به هشدار اشتباه سیستم هشدار خودکار مشکوک شد و دستور پرتاب هستهای را باطل کرد.
در واقع، سیستم هشدار خودکار نور منعکس شده از ابرها را به اشتباه تشخیص داده بود و ستوان از نابودی جهان توسط سلاح های هسته ای جلوگیری کرد.
با توجه به این موضوع، دیدگاه غالب در کشورهای غربی این است که نقش هوش مصنوعی باید تنها حمایت از تصمیم گیری انسان باشد و انسان باید تصمیم نهایی را بگیرد.
جنگ تصمیم محور که در حال حاضر توسط وزارت دفاع توسعه مییابد همچنین بیان میکند که نقش هوش مصنوعی حمایت از تصمیمگیری انسانی خواهد بود، به عنوان مثال، هوش مصنوعی برنامههای عملیاتی ایجاد میکند و آنها را به فرمانده پیشنهاد میکند.
هوش مصنوعی ممکن است بتواند برنامه های عملیاتی بهتری نسبت به انسان ها ایجاد کند.
به عنوان مثال، AlphaGo با انجام حرکتی که یک انسان هرگز انجام نمی دهد، لی سدول، بازیکن حرفه ای Go را غافلگیر کرد.
به طور مشابه، هوش مصنوعی ممکن است برنامههای مانور عجیبی ایجاد کند که انسانها هرگز به آن دست پیدا نکنند. به هر حال این انسان ها باید باشند که آنها را تایید و اجرا کنند.
JADC2 که توسط ارتش ایالات متحده در حال توسعه است، همچنین با استفاده از اطلاعات جمع آوری شده از تعداد زیادی حسگر برای شناسایی اهداف برای حمله، کاهش زمان درگیری را کاهش می دهد و هوش مصنوعی سلاح هایی را به فرمانده توصیه می کند که به آن اهداف حمله کنند.
هوش مصنوعی همچنین می تواند خرابی سلاح ها را از قبل پیش بینی کند و واحدهای تعمیر و نگهداری را برای انجام تعمیر و نگهداری در زمان بهینه توصیه کند.
علاوه بر این، هوش مصنوعی میتواند از قبل منابع مورد نیاز واحدهای میدانی را پیشبینی کند و مقدار بهینه تدارکات و برنامههای حمل و نقل را برای واحدهای تامین و واحدهای حملونقل توصیه کند.
هوش مصنوعی بر تصمیم گیری انسانی تسلط دارد
با این حال، حتی اگر نقش هوش مصنوعی به حمایت از تصمیمگیری انسانی محدود شود و انسانها تصمیم نهایی را بگیرند، همچنان این خطر وجود دارد که قضاوت انسان تحت سلطه هوش مصنوعی باشد.
بسیاری از مطالعات اغلب به سرنگونی یک هواپیمای F/A-18 نیروی دریایی ایالات متحده توسط یک واحد موشکی زمین به هوای ایالات متحده در جنگ عراق در سال 2003 اشاره می کنند.
در این حادثه سامانه خودکار موشک زمین به هوای پاتریوت آمریکا یک هواپیمای دوست را به اشتباه به عنوان هواپیمای دشمن شناسایی کرد.
اپراتورهای انسانی که باید در عرض چند ثانیه تصمیم می گرفتند، موشک را مطابق با نشانه سیستم خودکار شلیک کردند و خلبان یک F/A18 را به شهادت رساندند.
آنچه این مورد نشان می دهد این است که در شرایط استرس زا مبارزه و در زمان کوتاهی که برای تصمیم گیری در دسترس است، انسان ها مجبورند به قضاوت ماشین ها تکیه کنند.
روانشناسان همچنین نشان داده اند که با افزایش اعتماد به ماشین ها، انسان ها به آنها اعتماد خواهند کرد، حتی زمانی که شواهدی مبنی بر نادرست بودن قضاوت ماشین ظاهر شود.
همانطور که در بالا مورد بحث قرار گرفت، انتظار میرود که واگذاری تصمیمگیری به هوش مصنوعی زمان مورد نیاز برای تصمیمگیری را کاهش دهد و قضاوتهای عینی را ارائه دهد که تحتتاثیر سوگیریها، اکتشافات و خستگی ذاتی در انسان قرار نگیرد.
با این حال، تعدادی از مطالعات به خطرات جنگ های ناگهانی با تشدید آنی و خطر تسلط بر تصمیم گیری های انسانی توسط هوش مصنوعی اشاره می کنند.
سلاح های بدون سرنشین در سرعت تصمیم گیری از انسان ها بهتر عمل می کنند
تسلیحات بدون سرنشین سابقه طولانی دارند و اسرائیل از آنها در دهه 1970 استفاده عملی کرد.
در طول جنگ خلیج فارس در سال 1991، ارتش ایالات متحده از هواپیماهای شناسایی بدون سرنشین در شلیک مستقیم استفاده کرد.
استفاده از سلاح های بدون سرنشین در طول جنگ عراق به طور چشمگیری افزایش یافت، زمانی که ارتش ایالات متحده استفاده از سلاح های بدون سرنشین را از 150 سلاح در سال 2004 به 12000 در سال 2008 افزایش داد.
اپراتورهای انسانی از راه دور این پهپادهای اولیه را که استقلال هوش مصنوعی محدودی داشتند، اداره می کردند. با این وجود، سلاحهای بدون سرنشین دارای مزایای متعددی بودند و استفاده از آنها به سرعت گسترش یافت.
سلاحهای بدون سرنشین میتوانند برای دورههای متوالی، در ارتفاعات بالا یا در آبهای عمیق عمل کنند و با سرعتهای بالا چرخشهای سریع انجام دهند که با خدمه انسانی در هواپیما امکانپذیر نیست، در نتیجه میتوانند به عملکرد جنبشی بینظیری دست یابند.
علاوه بر این، سلاحهای بدون سرنشین میتوانند در مکانهای خطرناک بدون به خطر انداختن جان خلبان یا خدمه، مأموریتهایی را انجام دهند.
عدم وجود خدمه به این معنی است که فضای زندگی، پشتیبانی زندگی و تجهیزات ایمنی مورد نیاز نیست، که منجر به تولید ارزانتر و بدنههای کوچکتر هواپیما میشود.
هواپیماهای کوچکتر کمتر در رادار قابل مشاهده هستند و می توانند بدون شناسایی عمل کنند.
با این حال، کنترل از راه دور توسط اپراتورهای انسانی نیاز به یک پیوند ارتباطی بین سلاحهای بدون سرنشین و اپراتورهای انسانی دارد، که در صورت قطع شدن پیوندهای ارتباطی، سلاحها را غیرقابل مانور میکند.
در جنگ روسیه و اوکراین، سلاح های بدون سرنشین اوکراینی Bayraktar TB-2 در مراحل اولیه جنگ فعال بودند. با این حال، واحدهای جنگ الکترونیک روسیه به تدریج TB-2 را که از راه دور هدایت می شد، مسدود کردند.
در مقابل، سلاحهای بدون سرنشین مجهز به هوش مصنوعی که به طور مستقل عمل میکنند، میتوانند در مواجهه با پارازیت به کار خود ادامه دهند.
علاوه بر این، ارتش ایالات متحده در حال حاضر با کمبود شدید خلبانان هواپیماهای سرنشین دار و اپراتورهای هواپیماهای بدون سرنشین مواجه است و سلاح های خودران به رفع کمبود پرسنل کمک خواهند کرد.
مهمتر از همه، اگر هوش مصنوعی یک سلاح بدون سرنشین را خلبان کند، به طور قابل توجهی سریعتر عمل می کند.
همانطور که در تطابق بین F-86 ایالات متحده و MiG-15 شوروی در جنگ کره ذکر شده در بالا، سرعت تصمیم گیری مهمترین عامل در جنگ است.
به همین دلیل، زمانی که سلاحهای بدون سرنشین از راه دور انسانی و سلاحهای بدون سرنشین خودگردان با هوش مصنوعی در مقابل یکدیگر قرار میگیرند، اپراتورهای انسانی نمیتوانند با سلاحهای بدون سرنشین خودگردان که سرعت تصمیمگیری بسیار بالایی دارند، رقابت کنند.
توسعه بیشتر فناوری خودمختار برای سلاح های بدون سرنشین می تواند منجر به تحقق گروه هایی شود که از سلاح های بدون سرنشین متعدد تشکیل شده اند.
به عنوان مثال، دسته ای از مورچه ها به گونه ای خود سازماندهی می شوند که گویی یک موجود زنده واحد هستند، غذا را در یک صفوف حمل می کنند و لانه ای پیچیده می سازند، حتی اگر هیچ مورچه ای برای هدایت آن وجود نداشته باشد.
به طور مشابه، اگر تعداد زیادی از سلاحهای بدون سرنشین خودران خود سازماندهی شوند، میتوان یک گروه سلاح قدرتمند ایجاد کرد که به انجام مأموریت خود به عنوان یک گروه کامل ادامه میدهد، حتی اگر ارتباطات مختل شود یا برخی افراد تحت حمله گم شوند.
فناوریهای پیشرفته هوش مصنوعی در حال حاضر سلاحهای بدون سرنشین را خودمختارتر میکنند.
در سالهای اخیر، حتی هواپیماهای بدون سرنشین که از راه دور هدایت میشوند، به طور فزایندهای از هوش مصنوعی برای برخاستن، فرود و پرواز عادی استفاده میکنند و اپراتورهای انسانی را مجبور میکند تا روی تصمیمهای تاکتیکی، مانند انتخاب اهداف حمله و اجرای حملات تمرکز کنند.
به عنوان مثال، هواپیمای جنگی رادارگریز بدون سرنشین ارتش ایالات متحده X-47B در سال 2013 با موفقیت به طور خودکار بر روی یک ناو هواپیمابر فرود آمد و در سال 2015 با موفقیت در هوا تحت کنترل خود مختار سوخت گیری کرد.
با توجه به ماموریت فراگیر مانند محافظت از هواپیما، چنین استقلالی پیشرفت می کند. حامل از حمله دشمن، سلاح های بدون سرنشین قادر خواهند بود آن را به طور مستقل هدایت کنند.
مقرراتی که فقط دستان مردم خوب را می بندد
با این حال، دیدگاه غالب در کشورهای غربی این است که سلاحهای بدون سرنشینی که به طور مستقل و بدون دخالت انسان حمله میکنند، غیراخلاقی هستند و باید تحت نظارت قرار گیرند.
وزارت دفاع ایالات متحده دستورالعمل هایی را در مورد خودمختاری سیستم های تسلیحاتی ایجاد کرد و استانداردهای خاصی را تعیین کرد.
خطر از کار افتادن سلاحهای بدون سرنشین خودران، همانطور که در آینده در فیلم علمی تخیلی Terminator به تصویر کشیده شده است، نیز مطرح شده است.
آزمایش فکری نیک بوستروم فیلسوف سوئدی اغلب در رابطه با این استدلال ذکر می شود. فرض کنید یک ربات کاملا مستقل داریم که گیره های کاغذ می سازد.
این ربات موثرترین وسیله برای رسیدن به هدف خود را پیدا می کند و آن را انجام می دهد.
این ربات به تدریج شروع به تخریب تمدن بشری می کند و از تمام منابع روی کره زمین برای ساختن گیره ها استفاده می کند و بشریت از بین می رود. این ربات در نهایت به فضا گسترش می یابد و کیهان را زیر پا می گذارد.
تلاشهای بینالمللی نیز برای تنظیم سیستمهای تسلیحات خودکار مرگبار (LAWS) در حال انجام است.
با این حال، پیشرفت کمی در تلاشهای عینی حاصل شده است، زیرا چین مخالف مقررات و روسیه مخالف خود بحث است، و پیشرفت کمی در دستیابی به اجماع حتی در مورد آنچه باید تنظیم شود، حاصل شده است.
یک معضل در تنظیم سلاح های خودمختار مجهز به هوش مصنوعی وجود دارد.
همانطور که در بالا توضیح داده شد، سرعت تصمیم گیری در پیروزی یا شکست در جنگ از اهمیت بالایی برخوردار است.
به همین دلیل، تنظیم سلاح های خودمختار، مهم ترین قابلیت سرعت تصمیم گیری را کاهش می دهد و کشورهایی که مقررات را رعایت نمی کنند، ممکن است به طور غیرمنصفانه سود ببرند.
به عبارت دیگر این خطر وجود دارد که مقررات فقط دست افراد خوب را ببندد.
کنترل شناخت انسان با جعلیات عمیق
چین و روسیه در تلاش هستند تا از هوش مصنوعی از منظری کاملاً متفاوت برای پردازش سریعتر اطلاعات، تصمیم گیری هوش مصنوعی و سلاح های بدون سرنشین خودران استفاده کنند که در بالا ذکر شد.
این استفاده از هوش مصنوعی در جنگ شناختی است که در آن شناخت مغز انسان تحت تأثیر قرار می گیرد و اراده حریف برای ایجاد یک محیط استراتژیک سودمند یا به زانو در آوردن حریف بدون جنگ تأثیر می گذارد.
چی جیانگو، معاون سابق رئیس ستاد PLA، بیان کرده است که اگر PLA در توسعه فناوری هوش مصنوعی به مزیتی دست یابد، PLA قادر خواهد بود شناخت انسان را که شاهرگ حیاتی امنیت ملی است، کنترل کند.
با این حال، مشخص نیست که PLA دقیقاً چگونه قصد کنترل شناخت انسان را دارد.
یک روش ممکن رایج، استفاده از جعلی های عمیق، به عنوان مثال، فیلم ها، تصاویر و صداهایی است که با استفاده از هوش مصنوعی جعل یا تولید شده اند.
به عنوان مثال میتوان به تلاش روسیه برای پخش ویدیوی جعلی از رئیسجمهور زلنسکی در رسانههای اجتماعی اشاره کرد که در آن از مردم خواسته بود تا جنگ را متوقف کنند و در آغاز جنگ روسیه و اوکراین تسلیم شوند.
به طور مشابه، نگرانیهایی وجود دارد که چین ممکن است از تولید زبان مبتنی بر هوش مصنوعی و روشهای دیگر برای ایجاد محتوای رسانههای اجتماعی استفاده کند، که میتواند برای دستکاری افکار عمومی در تایوان یا تلاش برای بیاعتبار کردن عملیات نظامی ایالات متحده که از تایوان حمایت میکند، استفاده شود.
در واقع، هنگامی که نانسی پلوسی، رئیس مجلس نمایندگان ایالات متحده در آگوست 2022 از تایوان بازدید کرد، چین اخبار جعلی مبنی بر نقض حریم هوایی تایوان توسط جت های جنگنده Su-35 PLA منتشر کرد.
همچنین در سال 2020، دولت چین با استفاده از رسانه های دولتی و رسانه های اجتماعی به طور سیستماتیک این نظریه را منتشر کرد که ویروس عامل COVID-19 یک سلاح بیولوژیکی ایالات متحده است.
سال هاست که تلاش برای انتشار اطلاعات نادرست و ایجاد تصورات نادرست در بین مردم وجود داشته است.
یک نمونه مکرر از موفقیت گذشته، کمپین اطلاعات نادرست است که توسط اتحاد جماهیر شوروی در سال 1983 راه اندازی شد، که ادعا می کرد ویروس نقص ایمنی انسانی (HIV) یک ویروس ساخته دست بشر است که توسط ارتش ایالات متحده ایجاد شده است.
این اطلاعات نادرست در سراسر جهان پخش شد و تصور بسیاری از مردم را دوباره ایجاد کرد. یک نظرسنجی نشان می دهد که حتی امروزه، 48 درصد از آمریکایی های آفریقایی تبار معتقدند که HIV یک ویروس ساخته دست انسان است.
با این حال، اتحاد جماهیر شوروی 10 سال طول کشید تا اطلاعات نادرست درباره HIV در سراسر جهان منتشر کند.
در مقایسه، جعلی های عمیق مبتنی بر هوش مصنوعی می توانند مقادیر زیادی اطلاعات نادرست را در مدت زمان کوتاهی ایجاد کنند.
علاوه بر این، ربات هایی که به طور خودکار در اینترنت کار می کنند، اجازه می دهند این اطلاعات نادرست به تعداد زیادی از مردم سرایت کند.
روش دیگر این است که از طریق اطلاعات نادرست تصمیم گیری حریف را سردرگم کنید و در نتیجه تصمیم گیری نسبی متحدان را تسریع کنید.
Decision Centric Warfare که در حال حاضر توسط وزارت دفاع توسعه مییابد، از سلاحهای جنگ الکترونیک، هواپیماهای بدون سرنشین و ابزارهای دیگر برای گیجکردن دشمن و قرار دادن بار تصمیمگیری بر روی فرماندهی دشمن استفاده میکند و در نتیجه برتری نسبی سرعت تصمیمگیری را به دست میآورد.
آیا هوش مصنوعی یا هوش انسانی جنگ آینده را تعیین می کند؟
در حالی که سلاحهای متعارف ماهیچهها، چشمها و گوشهای انسان را تقویت کردهاند، برای اولین بار در تاریخ بشر، هوش مصنوعی مغز انسان را تقویت میکند و میتواند مهمترین جنبه جنگ یعنی تصمیمگیری سریع را درک کند.
بسیاری از استراتژیست ها استدلال کرده اند که ویژگی های جنگ با پیشرفت تکنولوژی تغییر می کند، اما ماهیت جنگ ثابت می ماند.
به عنوان مثال، نظریه کارل فون کلاوزویتز مبنی بر اینکه جنگ، نبرد اراده ها در هر دو طرف است و وجود مه جنگ به عنوان ماهیت تغییرناپذیر جنگ تلقی شده است.
با این حال، برخی از نظریه پردازان استدلال کردند که این ماهیت تغییر ناپذیر جنگ توسط علم و فناوری تغییر خواهد کرد.
به عنوان مثال، در دهه 1990، زمانی که ماهواره های متعدد، متعدد و حسگرها در جنگ مورد استفاده قرار گرفتند، برخی از نظریه پردازان استدلال کردند که مه جنگ از بین خواهد رفت.
آنها استدلال می کردند که میدان نبرد سنتی که در مه پوشانده شده بود و هیچ اطلاعاتی از دشمن نداشت، با اطلاعات دقیق ارائه شده توسط ماهواره ها و سایر فناوری ها پاکسازی می شود.
با این حال، جنگ در عراق و افغانستان در دهه 2000 نشان داد که این ادعاها نادرست است. بسیاری از نظامیانی که در جنگ ها خدمت می کردند شهادت دادند که میدان نبرد هنوز در مه پوشانده شده بود.
اطلاعات موجود در میدان نبرد ناقص بود، گاهی اوقات متضاد متقابل، و بیش از حد اطلاعات با اطلاعات بیشتر از آنچه قابل پردازش بود وارد می شد.
در وهله اول، مفهوم مه جنگ کلاوزویتز به کمبود اطلاعات اشاره نمی کند، بلکه به عدم اطمینان و شانس در جنگ اشاره دارد.
در شرایط سخت جنگ، مردم اغلب به دلیل ترس یا خستگی قادر به تصمیم گیری دقیق نیستند.
از زمان های قدیم نمونه های زیادی وجود داشته است که در آن یک سرباز تنها از ترس از نبرد فرار کرده و منجر به فروپاشی کامل صدها یا بیشتر سرباز بدون جنگ شده است.
کلاوزویتز مه جنگ را شامل عدم قطعیت ها و تصادفات همراه با طبیعت انسان، مانند ترس، توصیف کرد.
بنابراین، کسانی که در دهه 1990 ادعا می کردند که مه جنگ از بین خواهد رفت، به دلیل درک نکردن نظریه کلاوزویتز مورد انتقاد قرار گرفتند.
و بار دیگر مشخص شد که ماهیت جنگ همانطور که کلاوزویتز اشاره کرد تا زمانی که بازیگران جنگ انسان باشند تغییرناپذیر است.
در دهه 2010، با کاربرد عملی هوش مصنوعی، نشانه های جدیدی مبنی بر تغییر ماهیت جنگ وجود داشت.
در ماه مه 2017، رابرت ورک، معاون وزیر دفاع ایالات متحده گفت که هوش مصنوعی ممکن است ماهیت جنگ را تغییر دهد.
هوش مصنوعی با ترس و خستگی ذاتی انسان ارتباطی ندارد و می تواند حجم زیادی از اطلاعات را با دقت در دوره های زمانی کوتاه پردازش کند. بنابراین به نظر می رسد پردازش اطلاعات هوش مصنوعی، تصمیم گیری و سلاح های بدون سرنشین مستقل با مه جنگ ارتباطی ندارد.
با این حال، هوش مصنوعی خود می تواند منشا یک مه جنگ جدید باشد. خطرات جنگ های ناگهانی، تصمیم گیری های انسانی تحت تسلط هوش مصنوعی و سلاح های بدون سرنشین بدون سرنشین خودگردان که از بین می روند، عدم قطعیت ها و تصادفات جدیدی را به جنگ وارد می کنند.
بنابراین، بسیاری استدلال می کنند که حتی با توسعه هوش مصنوعی، تا زمانی که این انسان ها هستند که جنگ را انجام می دهند، عناصر ناشی از طبیعت انسان ثابت می مانند و ماهیت جنگ بدون تغییر باقی می ماند.
زیربنای این بحث این است که آیا علم و فناوری است یا هوش انسانی که آینده را تعیین می کند. در سال 1940، آلمانی ها ارتش فرانسه را با مفهوم خلاقانه حمله رعد اسا با استفاده از تانک شکست دادند.
اما در آن زمان فرانسوی های شکست خورده هم از نظر تعداد و هم از نظر عملکرد تانک برتر بودند.
در سال 1870، ارتش پروس فرانسوی ها را با استفاده از راه آهن شکست داد، اما فرانسوی های شکست خورده هم از نظر تعداد و هم از نظر عملکرد راه آهن برتر بودند.
بنابراین، در طول تاریخ، برتری خود علم و فناوری نبوده است، بلکه هوش بشری بوده که از آن استفاده میکند و در جنگها پیروز شده یا باخته است.
جنگ آینده ممکن است نه توسط علم و فناوری خود هوش مصنوعی، بلکه با نوآوری مفاهیمی که از آن استفاده میکنند، و با هوش و خلاقیت انسان تعیین شود.